COMPAS
Correctional Offender Management Profiling for Alternative Sanctions (COMPAS, с англ. — «Профилирование правонарушителей для применения альтернативных санкций») — программное обеспечение для управления судебными делами и поддержки принятия решений, разработанное и принадлежащее компании Northpointe (ныне Equivant), используемое судами США для оценки вероятности рецидива со стороны обвиняемого[1][2].
COMPAS используется в таких штатах США, как Нью-Йорк, Висконсин, Калифорния и других юрисдикциях[3].
Описание
Программное обеспечение COMPAS использует алгоритм для оценки потенциального риска рецидива преступлений по специально разработанным шкалам. Согласно руководству пользователя COMPAS, шкалы были разработаны с использованием «высокорелевантных» поведенческих и психологических конструктов[4].
Сторонники использования средств искусственного интеллекта в суде утверждают, что алгоритмы сглаживают искажения и ошибки в рассуждениях судей, например, «эффект голодного судьи» (явление, при котором судьи более склонны принимать снисходительные решения после еды)[5].
Критика
Использование проприетарного программного обеспечения, такого как COMPAS, критикуется за то, что, поскольку используемые им алгоритмы являются коммерческой тайной, они не могут быть изучены общественностью и заинтересованными сторонами, что может являться нарушением надлежащей правовой процедуры.
Использование алгоритмов, основанных на машинном обучении, критикуется также за то, что они зависят от данных: если данные предвзяты, программное обеспечение, скорее всего, выдаст предвзятые результаты[6].
В 2016 году Джулия Ангвин[англ.] была соавтором исследования алгоритма, проведённого ProPublica[7]. Было обнаружено, что «чернокожие почти в два раза чаще, чем белые, получают статус „более высокий риск“, но фактически не совершают повторных преступлений», в то же время COMPAS «совершает противоположную ошибку по отношению к белым: они гораздо чаще, чем чернокожие, получают статус „более низкий риск“, но продолжают совершать преступления»[7][8][9]. Исследователи также обнаружили, что только 20 процентов людей, которым алгоритм предсказывал совершение насильственных преступлений, действительно их совершали[7].
Примечания
- ↑ Sam Corbett-Davies, Emma Pierson, Avi Feller and Sharad Goel. A computer program used for bail and sentencing decisions was labeled biased against blacks. It's actually not that clear. (October 17, 2016).
- ↑ Aaron M. Bornstein (December 21, 2017). «Are Algorithms Building the New Infrastructure of Racism?» (55).
- ↑ Kirkpatrick, Keith (2017-01-23). «It's not the algorithm, it's the data» (en). Communications of the ACM 60 (2): 21–23. doi:10.1145/3022181.
- ↑ Northpointe A Practitioner's Guide to COMPAS Core (15 March 2015).
- ↑ (May 2022) «Beware the Lure of Narratives: "Hungry Judges" Should Not Motivate the Use of "Artificial Intelligence" in Law» (en). German Law Journal 23 (4): 452–464. doi:10.1017/glj.2022.32. ISSN 2071-8322.
- ↑ O'Neil, Cathy. Weapons of Math Destruction. — Crown, 2016. — P. 87. — ISBN 978-0-553-41881-1.
- ↑ 7,0 7,1 7,2 (2016-05-23) «Machine Bias». ProPublica.
- ↑ Yong, Ed. Популярный алгоритм не лучше предсказывает преступления, чем случайные люди (17 января 2018).
- ↑ Israni, Ellora. Когда алгоритм помогает отправить вас в тюрьму (Мнение), The New York Times (26 октября 2017).